«Το AI ρυθμίζεται λιγότερο από ένα σάντουιτς»: Οι εταιρείες χωρίς σχέδιο για την υπερνοημοσύνη
Οι κολοσσοί της τεχνητής νοημοσύνης δεν τηρούν ούτε τις δικές τους δεσμεύσεις για την ασφάλεια, προειδοποιεί μια αποκαλυπτική έκθεση.
Οκτώ από τις μεγαλύτερες εταιρείες τεχνητής νοημοσύνης στον κόσμο, μεταξύ τους οι OpenAI, Meta, Anthropic και DeepSeek, δεν διαθέτουν αξιόπιστα σχέδια για την αποτροπή των καταστροφικών κινδύνων που συνδέονται με προηγμένα συστήματα ΑΙ, σύμφωνα με νέα μελέτη.
Οι κολοσσοί της τεχνητής νοημοσύνης δεν τηρούν ούτε τις δικές τους δεσμεύσεις για την ασφάλεια, προειδοποιεί η έκθεση, επισημαίνοντας ότι οι παραλείψεις αυτές ενέχουν «καταστροφικούς» κινδύνους.
Η δημοσιοποίηση της έκθεσης έρχεται τη στιγμή που εταιρείες ΑΙ βρίσκονται αντιμέτωπες με αγωγές και καταγγελίες ότι τα chatbots προκαλούν ψυχολογική βλάβη, μεταξύ άλλων κατηγορίες ότι λειτουργούν ως «σύμβουλοι αυτοκτονίας», καθώς και με αναφορές για κυβερνοεπιθέσεις στις οποίες χρησιμοποιούνται εργαλεία τεχνητής νοημοσύνης.
Τι έδειξε η αποκαλυπτική μελέτη
Η έκθεση Winter AI Safety Index 2025, που δημοσιεύθηκε από το μη κερδοσκοπικό Future of Life Institute (FLI), αξιολόγησε οκτώ μεγάλες εταιρείες, ανάμεσά τους τις αμερικανικές Anthropic, OpenAI, Google DeepMind, xAI και Meta, καθώς και τις κινεζικές DeepSeek, Alibaba Cloud και Z.ai.
Τα ευρήματα δείχνουν ότι οι εταιρείες δεν διαθέτουν αξιόπιστες στρατηγικές για την αποτροπή καταχρηστικής χρήσης ή απώλειας ελέγχου των εργαλείων ΑΙ, σε μια περίοδο όπου ο ανταγωνισμός για την ανάπτυξη τεχνητής γενικής νοημοσύνης (AGI) και υπερευφυΐας/υπερνοημοσύνης εντείνεται.
Ανεξάρτητοι αναλυτές που μελέτησαν την έκθεση διαπίστωσαν ότι καμία εταιρεία δεν έχει παρουσιάσει κάποιο εφαρμόσιμο σχέδιο για το πώς θα διατηρηθεί ο ανθρώπινος έλεγχος πάνω σε εξαιρετικά ισχυρά συστήματα.
Ο καθηγητής Πληροφορικής του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϊ, Στιούαρτ Ράσελ, σχολίασε ότι οι εταιρείες ισχυρίζονται πως μπορούν να δημιουργήσουν υπεράνθρωπη ΑΙ, αλλά καμία δεν έχει δείξει πώς θα προληφθεί η απώλεια ελέγχου.
«Ψάχνω αποδείξεις ότι μπορούν να μειώσουν τον ετήσιο κίνδυνο απώλειας ελέγχου σε ένα προς εκατό εκατομμύρια, όπως απαιτείται στους πυρηνικούς αντιδραστήρες», δήλωσε ο Ράσελ. «Αντί γι’ αυτό, παραδέχονται ότι ο κίνδυνος μπορεί να είναι ένα προς δέκα, ένα προς πέντε, ακόμη και ένα προς τρία, χωρίς να μπορούν να τον αιτιολογήσουν ή να τον βελτιώσουν».
Πώς κατετάγησαν οι εταιρείες
Η μελέτη αξιολόγησε τις εταιρείες σε έξι κρίσιμους τομείς: εκτίμηση κινδύνου, τρέχουσες επιβλαβείς συνέπειες, πλαίσια ασφάλειας, υπαρξιακή ασφάλεια, διακυβέρνηση και λογοδοσία, καθώς και διαμοιρασμό πληροφοριών.
Αν και διαπιστώθηκε κάποια πρόοδος, το ανεξάρτητο πάνελ ειδικών αναφέρει ότι η εφαρμογή των πολιτικών ασφάλειας παραμένει αποσπασματική και συχνά ανεπαρκής βάσει των νέων διεθνών προτύπων.
Οι Anthropic, OpenAI και Google DeepMind έλαβαν θετικές αναφορές για διαφάνεια, δημόσια πλαίσια ασφάλειας και επενδύσεις σε τεχνική έρευνα ασφάλειας. Ωστόσο, παρουσίασαν σημαντικές αδυναμίες.
Anthropic: επικρίθηκε επειδή σταμάτησε τις δοκιμές σχετικά με «ανύψωση ανθρώπινων δυνατοτήτων» και στράφηκε στο να εκπαιδεύει μοντέλα με βάση αλληλεπιδράσεις χρηστών, αλλαγή που, σύμφωνα με ειδικούς, υποβαθμίζει τις προστασίες προσωπικών δεδομένων.
OpenAI: δέχθηκε κριτική για ασαφή όρια ασφαλείας, για lobbying ενάντια σε νομοθεσίες ασφαλείας σε επίπεδο Πολιτειών, καθώς και για ανεπαρκή ανεξάρτητη εποπτεία.
Google DeepMind: έχει βελτιώσει το πλαίσιο ασφάλειάς της, σύμφωνα με την έκθεση, αλλά εξακολουθεί να βασίζεται σε εξωτερικούς αξιολογητές που πληρώνονται από την ίδια την εταιρεία, γεγονός που θέτει ερωτήματα ανεξαρτησίας.
Σύμφωνα με την έκθεση, οι υπόλοιπες πέντε εταιρείες εμφάνισαν άνιση αλλά αξιοσημείωτη πρόοδο, αν και εξακολουθούν να χρειάζονται βελτιώσεις.
Τι απαντούν εταιρείες
Εκπρόσωπος της OpenAI δήλωσε στο Euronews Next ότι η ασφάλεια αποτελεί θεμελιώδη αρχή της εταιρείας: «Επενδύουμε σημαντικά σε έρευνα για την ασφάλεια προηγμένων μοντέλων, ενσωματώνουμε ισχυρές δικλείδες στα συστήματά μας και τα υποβάλλουμε σε αυστηρές δοκιμές, τόσο εσωτερικά όσο και με ανεξάρτητους ειδικούς. Μοιραζόμαστε τα πλαίσια και τα ευρήματα ασφάλειας για να συμβάλουμε στη διαμόρφωση προτύπων και ενισχύουμε διαρκώς τις προστασίες μας».
Εκπρόσωπος της Google DeepMind δήλωσε στο Euronews Next ότι η εταιρεία υιοθετεί μια «αυστηρή, επιστημονικά καθοδηγούμενη προσέγγιση στην ασφάλεια της ΑΙ».
«Το Frontier Safety Framework μας περιγράφει συγκεκριμένα πρωτόκολλα για τον εντοπισμό και τον μετριασμό σοβαρών κινδύνων από ισχυρά μοντέλα τεχνητής νοημοσύνης, πριν αυτοί εκδηλωθούν. Καθώς τα μοντέλα μας γίνονται πιο εξελιγμένα, καινοτομούμε συνεχώς στην ασφάλεια και τη διακυβέρνηση με ρυθμό αντίστοιχο των δυνατοτήτων τους», πρόσθεσε η εταιρεία.
Ο Μαξ Τέγκμαρκ, πρόεδρος του FLI και καθηγητής στο MIT, δήλωσε στο Euronews Next ότι «και οι τρεις κορυφαίες εταιρείες υπέφεραν από τρέχουσες επιβλαβείς συνέπειες λόγω πρόσφατων σκανδάλων, ψυχολογικές βλάβες, παιδικές αυτοκτονίες, η τεράστια κυβερνοεπίθεση που δέχθηκε η Anthropic, και όλες έχουν περιθώριο βελτίωσης».
Η μικρή πρόοδος των εταιρειών
Η xAI δημοσίευσε το πρώτο της δομημένο πλαίσιο ασφάλειας, ωστόσο οι αξιολογητές προειδοποίησαν ότι είναι περιορισμένο και δεν περιλαμβάνει σαφείς μηχανισμούς ενεργοποίησης μέτρων μετριασμού.
Η Z.ai ήταν η μόνη που επέτρεψε την ανεξέλεγκτη δημοσίευση των εξωτερικών αξιολογήσεων ασφάλειάς της, αλλά προτείνεται να δημοσιοποιήσει ολόκληρο το πλαίσιο ασφάλειας και τη δομή διακυβέρνησης, με καθορισμένες περιοχές κινδύνου, μέτρα μετριασμού και διαδικασίες λήψης αποφάσεων.
Η Meta εισήγαγε νέο πλαίσιο ασφάλειας για τα προηγμένα μοντέλα της, με όρια βασισμένα σε αποτελέσματα, αλλά οι αξιολογητές ζήτησαν να ξεκαθαρίσει τις μεθοδολογίες και να δημοσιοποιήσει πιο ισχυρές εσωτερικές και εξωτερικές αξιολογήσεις.
Η DeepSeek αναγνωρίστηκε για την εσωτερική πίεση υπέρ της ασφάλειας από εργαζόμενους, αλλά εξακολουθεί να μην διαθέτει βασική τεκμηρίωση ασφαλείας.
Η Alibaba Cloud συνέβαλε στα δεσμευτικά εθνικά πρότυπα για τις απαιτήσεις υδατοσήμανσης περιεχομένου, ωστόσο μπορεί να βελτιωθεί ενισχύοντας την ανθεκτικότητα και την αξιοπιστία των μοντέλων της, ιδίως σε ζητήματα αληθείας, δικαιοσύνης και συνολικής ασφάλειας.
«Ρυθμίζεται λιγότερο κι από σάντουιτς»
«Ελπίζω να ξεφύγουμε από την κατάσταση όπου οι εταιρείες αυξάνουν την κλίμακά τους αποκλειστικά βάσει της φήμης τους», δήλωσε ο Τέγκμαρκ. «Όταν ρωτήσαμε τις εταιρείες ποιο είναι το σχέδιό τους για τον έλεγχο της AGI, καμία δεν είχε σχέδιο».
Παράλληλα, εταιρείες όπως η Meta χρησιμοποιούν πλέον τον όρο superintelligence ως εργαλείο προώθησης των νέων μοντέλων τους. Φέτος μάλιστα, η Meta μετονόμασε το τμήμα των μεγάλων γλωσσικών μοντέλων σε Meta Superintelligence Labs.
Ο Τέγκμαρκ επισημαίνει ότι έχει υπάρξει μια μεγάλη μεταστροφή στον τρόπο που συζητείται η AGI και η υπερευφυΐα: ενώ παλαιότερα οι επιστήμονες μιλούσαν για πιθανότητα μέσα στον επόμενο αιώνα, σήμερα πολλοί θεωρούν ότι μπορεί να εμφανιστεί μέσα στα επόμενα χρόνια.
«Η ΑΙ ρυθμίζεται λιγότερο ακόμη και από τα… σάντουιτς στις Ηνωμένες Πολιτείες», είπε, τονίζοντας ότι συνεχίζεται η πίεση ενάντια στην υιοθέτηση δεσμευτικών προτύπων ασφαλείας από τις κυβερνήσεις.
Ωστόσο, σημείωσε ότι την ίδια στιγμή υπάρχει πρωτοφανής αντίδραση απέναντι στο ενδεχόμενο να μην υπάρχει έλεγχος στην AGI και την υπερευφυΐα.
Έκκληση για επιβράδυνση της πορείας της υπερευφυΐας
Τον Οκτώβριο, χιλιάδες δημόσια πρόσωπα, ανάμεσά τους ηγετικές φυσιογνωμίες της τεχνολογίας και της ΑΙ, ζήτησαν από τις εταιρείες να επιβραδύνουν την πορεία προς την υπερευφυΐα.
Το ψήφισμα, οργανωμένο από το FLI, συγκέντρωσε υπογραφές από όλο το πολιτικό φάσμα, από τη δεξιά βάση του Ντόναλντ Τραμπ μέχρι θρησκευτικούς ηγέτες, πρώην πολιτικούς και κορυφαίους επιστήμονες υπολογιστών.
«Τι κοινό έχουν όλοι αυτοί; Συμφώνησαν σε μια δήλωση. Είναι εξαιρετικά σημαντικό ότι άτομα από τη βαθιά MAGA βάση μέχρι την αριστερά και τα εργατικά κινήματα συμφωνούν σε κάτι», σχολίασε ο Τέγκμαρκ.
«Η υπερευφυΐα θα καθιστούσε κάθε εργαζόμενο ανίκανο να βγάλει το ψωμί του, καθώς όλες οι δουλειές θα γίνονταν από ρομπότ. Οι άνθρωποι θα εξαρτώνταν από κρατικά επιδόματα· για τη δεξιά αυτό θα θεωρούνταν "φιλοδώρημα", ενώ για την αριστερά θα έμοιαζε με δυστοπία τύπου "1984". Νομίζω ότι βρισκόμαστε σε ένα κρίσιμο σημείο».